Documentare l’Archeologia 4.0 – riflessioni di Marco Valenti e Stefano Bertoldi

A margine del workshop di Bologna “Documentare l’Archeologia 4.0: strumenti e metodi per la costruzione di banche dati territoriali”.
L’intervento di Stefano Bertoldi sulle analisi predittive.
———

Si parla tanto di analisi predittive alla stregua di panacea di tutti i mali e di archeologia del futuro….

Io non la penso così; e penso ancora che scavo e ricognizione siano gli strumenti metodologici fondamentali per fare archeologia.

Non mi si può certo tacciare di anti progressismo; chi conosce il mio curriculum sa bene quanto ho lavorato e lavoro ancora sul trattamento informatico dei dati e come i miei allievi vadano in questa direzione.

Ma il mondo delle archeoinformatiche, ciclicamente ha sempre nuove chimere e “soluzioni finali” da perseguire.

E da anni mi sono posto fuori da questo coro insieme a Vittorio Fronza ed Alessandra Nardini (cioè due tra i più bravi ricercatori di base in giro per quanto riguarda DBMS e sistemi GIS per l’archeologia).

Pertanto, continuo e continuiamo a essere “contro”; non per atteggiamento da bastian contrari o per posa.

Credo e crediamo fermamente ancora alla funzione di solo strumento delle soluzioni applicate e non di fine per fare archeologia.
E come strumento, sempre più reffinandone contenuti e forme dell’agire, vanno trattate le applicazioni.
Non strumenti per fare archeologia, bensì strumenti per l’archeologia.

Oggi, per esempio, abbiamo partecipato ad un bel seminario bolognese (ancora in corso nel momento in cui scrivo): “Documentare l’Archeologia 4.0: strumenti e metodi per la costruzione di banche dati territoriali”.

Il mio gruppo di lavoro ha proposto questa relazione: Sistemi digitali di documentazione e analisi archeologica. Verso quale direzione? – Marco Valenti, Vittorio Fronza, Stefano Bertoldi (Università di Siena)
———

Riporto il testo della parte svolta ed esposta con grande dovizia di esempi da Stefano Bertoldi all’interno di questa relazione.

E’ materiale per riflettere, discutere, confrontarsi.

Da parte mia, scherzosamente, ribadisco che non credo all’Eldorado e alle sette città d’oro di Cibola.

Non me ne voglia chi non è d’accordo…. non possiamo tutti pensarla allo stesso modo.

Marco Valenti (archeologo)
———

Stefano Bertoldi
LE ANALISI QUANTITATIVE IN ARCHEOLOGIA: UN POTENZIALE INESPRESSO

Presupposto fondamentale per l’analisi quantitativa è la possibilità di avere a disposizione una base di dati geografici; questa deve comporre un campione statistico che tenda il più possibile alla popolazione reale.
Ma non basta: il fatto che si possa avere a disposizione una massa sterminata di informazioni non è garanzia di effettiva capacità di utilizzo, ma occorre che tale base di dati sia effettivamente fruibilie.

In archeologia, se si ha come obiettivo l’analisi di una banca dati, è necessaria una schematizzazione dell’evidenza: semplificare l’informazione, da un lato ci impedisce di cogliere pienamente la complessità del sistema, ma dall’altro ci permette di normalizzare i dati e di imbrigliarli all’interno di schemi.
Schematizzazione che del resto eseguiamo anche attraverso la stratigrafia archeologica.
Si rivelano quindi necessarie un accurato campionamento ed una selezione qualitativa dei dati.

L’immagine della complessità sociale che ne risulta è parziale e selettiva, ma proprio per questo ha una sua efficacia.
Le necessità a cui la statistica risponde sono di natura descrittiva e predittiva.

Nel primo caso si intende l’analisi di una popolazione (o di un campione) e la sintesi in indici numerici, mentre nel secondo caso l’obiettivo è quello di analizzare i dati al fine di prevedere fenomeni futuri.
In campi applicativi dove lo studio dei dati presenti e passati può dare informazioni sul futuro, anche la statistica descrittiva può avere una certa valenza predittiva: ma questo non è il caso dell’archeologia.

Nel corso degli anni novanta del secolo scorso e nell’ultima decade con maggior forza, la disciplina ha iniziato ad addentrarsi nel mondo delle analisi predittive: l’intento era ambizioso e nasceva direttamente dalle ampie vedute dell’archeologia processuale americana, consistendo nella possibilità di comprendere (prevedere?) i fenomeni archeologici sulla base delle nostre conoscenze e/o su principi che reputiamo avere una valenza generalizzata.

Il sogno sfacciatamente processualista di abbandonare la trowel e di comprendere il paesaggio attraverso strumenti di tipo matematico/statistico/geografico è stato a lungo taciuto, ma sempre presente nel pensiero dei ricercatori.
I modelli predittivi possono trovare un forte valore applicativo nel campo della Tutela e soprattutto nel campo dell’archeologia preventiva, al fine di individuare aree con potenziale archeologico e che possono essere sottoposte a ricognizione intensiva.
Ritengo che nell’ambito della Tutela sia meglio abbondare che scarseggiare.

Il presupposto essenziale delle analisi predittive è quello della totale razionalità delle scelte umane: per quanto complesse, il fascio di forze generatrici che ha come risultato l’insediamento non deve avere nessun elemento casuale.

Al momento, non mi sembra che la comunità scientifica sia concorde nell’associare valore nullo (o che tenda allo zero) all’elemento “casualità”.

Altro elemento che va tenuto presente è che tutte le analisi predittive rispondono alle necessità di decision making: la macchina è educata attraverso delle scale di valori correlate e impostate dall’uomo al fine di prendere delle decisioni logiche integrando nella scelta i nostri criteri.

La direzione archeologica va invece in senso opposto: postulata l’esistenza dell’azione antropica nel paesaggio, postulato che l’intervento antropico non risponda in nessun modo a casualità, ipotizzerò e relazionerò le variabili che hanno regolato lo stanziamento umano: il risultato che otterrò sarà l’ipotesi (una o più di una) che la macchina reputa essere migliore.

L’incapacità di verificare l’esperimento tramite il test della realtà, trasforma l’analisi predittiva archeologica in analisi postdittiva.

Assegnare un doppio valore di Tutela e Ricerca alle analisi predittive risulta invece più problematico e molte delle analisi e indagini che sono state sottoposte a verifica (come in una sorta di esperimento scientifico) mostrano chiaramente i propri limiti: sono fermamente convinto che in ogni epoca, in ogni luogo geografico, l’insediamento umano risponda a delle “regole” insediative principalmente dettate da necessità economiche, ma anche sociali, religiose, strategico-militari e ovviamente politiche.

Sono però fermamente convinto che tale insediamento umano non risponda a delle “leggi”.

Probabilmente, allo stato attuale della Ricerca, non siamo ancora in grado di definire con esattezza le variabili che hanno determinato le scelte insediative e a maggior ragione non riusciamo a quantificarle e a metterle in relazione tra loro.

Queste difficoltà possono condurre verso la ricostruzione di un irreale paesaggio antropizzato, vincolato a degli enunciati che non siamo sicuri avere valore generale ed in definitiva potrebbero trarre in inganno il ricercatore.

Nonostante gli sforzi nel definire variabili attendibili, la capacità di predire ciò che non è ancora successo (o meglio, ciò che non sappiamo sia già successo), rappresenta per gli archeologi un sogno infranto.

Prendiamo per esempio l’analisi dei costi: il calcolo di un percorso che possiamo ritenere economicamente vantaggioso ha conosciuto negli ultimi anni molti casi applicativi, soprattutto in età romana per la ricostruzione della rete viaria partendo dalla Tabula Peutingeriana.

Il metodo GIS dell’analisi dei costi effettivamente, si presta con efficacia all’individuazione di tracciati antichi, può incuriosire ed essere accattivante, soprattutto per alcuni territori dove la rete viaria romana risulta essere ancora dubbiosa e difficile da ricostruire e comprendere. Intesa esclusivamente in questo senso però, la cost analysis rischia di essere un strumento tecnologico nelle mani del topografo per proporre un percorso sul territorio, mentre le potenzialità che tale algoritmo può offrirci sono ben altre: lo strumento in questione può offrirci la possibilità di modellare il sistema di percorsi che in un determinato periodo storico doveva essere in funzione; in questa ottica la rete è data dalle strade e i nodi dai siti.

Costruita la rete, dovremo occuparci della comprensione di come, di quante e di quali merci, idee e uomini viaggiavano su questa rete.

Lo spunto è quello offerto da Brogiolo nelle conclusioni del volume Medioevo, paesaggi e metodi, nel quale l’autore propone lo studio di un’archeologia delle relazioni, passando quindi da un’archeologia statica che studia i siti basandosi essenzialmente su concetti come funzione, dimensione e cronologia, ad una più dinamica che studia le relazioni ed i rapporti tra siti, rintracciabili nello studio dei reali percorsi (vie di comunicazione) e nella distribuzione della cultura materiale.

La volontà di chi sfrutta tale strumento informatico non dovrebbe quindi essere quella di ipotizzare una data viabilità (che tra l’altro non necessità assolutamente del cost analysis), ma di creare un sistema sul quale poi studiare fenomeni economici e commerciali, diffusione della cultura materiale, cambiamenti insediativi, nelle strade, nei luoghi e nei ritmi di mercato.

In questo tipo di approccio la cost analysis dovrebbe essere un tipo di analisi propedeutica ad obiettivi generali di ricostruzione dei paesaggi antichi.

Una riflessione concettuale come quella che stiamo proponendo conduce inevitabilmente alla rivalutazione della statistica descrittiva in archeologia: analisi di “vecchio tipo”, come la regola rango-dimensione, poligoni di Thiessen, calcolo della densità, buffer analysis, hanno portato contributi importanti alla ricerca, vista la loro effettiva traducibilità in dati storici.

Vediamo in particolare il caso della regola rango-dimensione come caso esplicativo.
Questa ha avuto alterne vicende applicative in archeologia: in effetti è estremamente complicato applicare alla lettera questo modello geografico, considerato che il dato sul popolamento antico è quasi impossibile da ottenere su grandi contesti territoriali: per ovviare a questo problema è stato proposto di utilizzare come variabile anziché la popolazione, gli areali di dispersione dei manufatti su un sito.

Questo metodo è stato proposto per la prima volta da G. A. Johnson alla fine degli anni ’70 del novecento. Il metodo è stato testato su contesti di grande distanza geografica e storica come la Susiana tra 3800 e 3400 a.C. e gli Stati Uniti tra 1750 e 1850 d.C.

Il sistema è stato poi riproposto da Guidi nel 1985 sul caso degli insediamenti tra Etruria del Sud e Latium Vetus tra il 1200 ed il 700 a.C. e applicato poi in altri contesti e altre realtà insediative.

La regola dimensione rango mostra sicuramente dei limiti concettuali: prima di tutto è un modello teorico che schematizza in modo assai rigido la realtà ed in secondo luogo pone problemi di carattere geografico sui limiti da scegliere (limiti politici come stati, regioni, province, oppure limiti naturali?) ed al variare di questi limiti la curva che otterremo potrebbe risultare sostanzialmente differente, incappando quindi in una sorta di effetto di bordo.
Se applicata all’archeologia a maggior ragione vengono a galla delle perplessità, come ad esempio la mancanza di certezze sulla corrispondenza proporzionale tra areale dei materiali in superficie e popolazione.

Possiamo ovviare però ad alcune criticità: prima di tutto non è necessaria una massa enorme di dati (anche se ad un maggior numero di informazioni ovviamente corrisponderà un dettaglio maggiore del risultato), ma saranno sufficienti campioni certi delle varie realtà insediative per modellare una curva affidabile, inoltre l’effetto di bordo è superato se si considera che per il valore atteso serve solamente l’insediamento di rango 1, quindi non saranno tanto importanti i limiti quanto la scelta del centro maggiore.

Se sono vere le problematiche archeologiche del sistema, è comunque necessario ricordare che anche sulla base della grandezza dei siti e della densità dei reperti i ricognitori postulano le proprie interpretazioni; se quindi è considerato questo un valido criterio interpretativo, si deve perlomeno provare ad applicare criteri statistici sugli stessi dati.
In conclusione, data l’impossibilità di predire il passato, è necessario costruire indici matematici affidabili attraverso analisi statistiche descrittive.

In definitiva, quello che prospettiamo in questa fase è una maggior definizione delle variabili archeologiche che hanno regolato le scelte insediative antiche.

L’unica via percorribile è la statistica descrittiva di tipo geografico a diverse scale (da quella nazionale a quella sub-regionale), per comprendere tendenze generali, eccezioni, differenze, uguaglianze, ecc. Occorre forse inventarsi anche nuove analisi, che rispondano più marcatamente a specifici quesiti archeologici.

Il confronto tra periodi storici differenti, diverse aree geografiche e variabili da analizzare (come ad esempio possono essere fiumi, strade e infrastrutture, città, materie prime, linea di costa, geologia dei suoli, tipologie di siti) permetteranno di individuare criteri accertati qualitativamente e quantitativamente e (se possibile) condivisi tra i ricercatori.

Share Button

Related posts

Leave a Comment